top 64 informatica interview questions with answers
Vanliga frågor och svar om Informatica-intervjuer:
Den här artikeln täcker de viktigaste frågorna för Informatica MDM, PowerCenter, Data Quality, Cloud, ETL, Admin, Testing och Developer.
I dagens scenario har INFORMATICA uppnått taggen för en mest krävande produkt över hela världen. Dess produkter introducerades nyligen men de blev populära inom en kort tidsperiod.
INFORMATICA har under åren fungerat som ledande inom teknikområdet Data Integration. Baserat på ETL (Extract, Transfer, Load) -arkitektur har detta dataintegreringsverktyg flera produkter som fokuserar på att tillhandahålla tjänster för statliga organisationer, finans- och försäkringsbolag, sjukvård och flera andra företag.
Det här var bara bakgrunden till INFORMATICA. Men idag har datalagerfältet en enorm tillväxt och därmed finns det många jobbmöjligheter i branschen.
Bästa informatica intervju frågor och svar
Nedan följer en lista med de vanligaste intervjufrågorna och svaren. Den innehåller cirka 64 frågor som i sin tur gör det möjligt för dig att borsta din kunskap om Informatica-koncept på ett enklare sätt.
F # 1) Vad är INFORMATICA? Varför behöver vi det?
Svar: INFORMATICA är ett mjukvaruutvecklingsföretag som erbjuder en viss dataintegreringslösning för ETL, datavirtualisering, masterdatahantering, datakvalitet, datareplik, ultra messaging etc.
Några av de populära INFORMATICA-produkterna är:
- IT PowerCenter
- INFORMATICA PowerConnect
- DATOR Power Mart
- INFORMATICA Power Exchange
- INFORMATICA Effektanalys
- INFORMATICA Strömkvalitet
Vi behöver INFORMATICA när vi arbetar med datasystem som innehåller data för att utföra vissa operationer tillsammans med en uppsättning regler. Det underlättar rengöring och ändring av data från strukturerade och ostrukturerade datasystem.
F # 2) Vilket format har INFORMATICA-objekt i ett arkiv? Vilka databaser kan den ansluta till Windows?
Svar: INFORMATICA-objekt kan skrivas i XML-format.
Följande är listan över databaser som den kan ansluta till:
- SQL Server
- Orakel
- MS Access
- MS Excel
- DB2
- Sybase
- Teradata
F # 3) Vad är INFORMATICA PowerCenter?
Svar: Det är ett ETL / Data Integration-verktyg som används för att ansluta och hämta data från olika källor och databehandling. PowerCenter bearbetar en hög datamängd och stöder datainhämtning från ERP-källor som SAP, PeopleSoft, etc.
Du kan ansluta PowerCenter till databashanteringssystem som SQL och Oracle för att integrera data i det tredje systemet.
F # 4) Vilka är de olika versionerna av INFORMATICA PowerCenter som finns tillgängliga?
Svar: Olika utgåvor av INFORMATICA PowerCenter är:
- standard utgåva
- Advanced Edition
- Premium Edition
Den nuvarande versionen av PowerCenter som är tillgänglig är v10 med en högpresterande ökning.
F # 5) Hur kan du skilja mellan PowerCenter och Power Map?
Svar: Nedan visas skillnaderna mellan PowerCenter och Power Map.
IT PowerCenter | Datavetenskap PowerMart | ||
---|---|---|---|
5858 | 4566 | 3550 | 2016-01-23 |
1. | Bearbetar hög datamängd | Bearbetar låg datamängd | |
två. | Stöder globala och lokala förvar | Stöder endast lokala förvar | |
3. | Stöder datainhämtning från ERP Källor som SAP, PeopleSoft etc. | Stöd inte datahämtning från ERP-källor | |
Fyra. | Konverterar lokala förråd till globala | Konvertera inte lokala förråd till globala |
F # 6) Vilka är de olika komponenterna i PowerCenter?
Svar: Nedan följer de 7 viktiga komponenterna i PowerCenter:
- PowerCenter-tjänsten
- PowerCenter-klienter
- PowerCenter Repository
- PowerCenter-domän
- Förvarstjänst
- Integrationstjänst
- PowerCenter Administration Console
- Web Service Hub
F # 7) Vilka är de olika klienterna i PowerCenter?
Svar: Här är listan över PowerCenter-klienter:
- PowerCenter-designer
- PowerCenter arbetsflödesmonitor
- PowerCenter arbetsflödeshanterare
- PowerCenter repository manager
F # 8) Vad är INFORMATICA PowerCenter Repository?
Svar: PowerCenter Repository är en relationsdatabas eller en systemdatabas som innehåller metadata som,
- Källedefinition
- Måldefinition
- Session och session loggar
- Arbetsflöde
- ODBC-anslutning
- Kartläggning
Det finns två typer av förvar:
- Globala arkiv
- Lokala arkiv
PowerCenter Repository krävs för att utföra extrahering, transformation och laddning (ETL) baserat på metadata.
F # 9) Hur utarbetar jag spårningsnivå?
Svar: Spårningsnivå kan definieras som mängden information som servern skriver i loggfilen. Spårningsnivå skapas och konfigureras antingen på transformationsnivå eller på sessionsnivå annars på båda nivåerna.
Nedan följer de fyra typerna av spårningsnivå:
- Ingen
- Koncis
- Grundlig initialisering
- Omfattande data
F # 10) Hur utarbetar jag PowerCenter-integrationstjänsten?
Svar: Integrationstjänster styr arbetsflödet och körningen av PowerCenter-processer.
Det finns tre komponenter i INFORMATICA-integrationstjänster som visas i figuren nedan.
Integrationstjänstprocess: Det kallas som pmserver, integrationstjänsten kan starta mer än en process för att övervaka arbetsflödet.
Lastbalansering: Lastbalansering avser att fördela hela arbetsbelastningen över flera noder i nätet. En lastbalanserare utför olika uppgifter som inkluderar kommandon, sessioner etc.
Data Transformation Manager (DTM): Data Transformation Manager gör det möjligt att utföra följande datatransformationer:
- Aktiva: För att ändra antalet rader i utdata.
- Passiv: Det går inte att ändra antalet rader i utdata.
- Ansluten: Länk till den andra omvandlingen.
- Utan samband: Ingen länk till andra omvandlingar.
F # 11) Vad är PowerCenter on Grid?
Svar: INFORMATICA har funktionen Grid computing som kan användas för den största dataskalbarheten för prestanda. Rutnätfunktionen används för lastbalansering och parallell bearbetning.
PowerCenter-domäner innehåller en uppsättning flera noder för att konfigurera arbetsbelastningen och sedan köra den på rutnätet.
TILL domän är en grund för effektiv serviceadministration som drivs av PowerCenter.
Nod är en oberoende fysisk maskin som är logiskt representerad för att köra PowerCenter-miljön.
F # 12) Vad är Enterprise Data Warehousing?
Svar: När en stor mängd data samlas vid en enda åtkomstpunkt kallas det Enterprise Data Warehousing. Dessa data kan återanvändas och analyseras med jämna mellanrum eller enligt behovet av tidskravet.
Betraktas som den centrala databasen eller säg en enda åtkomstpunkt, företagsdatalagring ger en fullständig global bild och hjälper därmed till beslutsstöd.
Det kan förstås mer av följande punkter som definierar dess funktioner:
- All viktig affärsinformation som lagras i denna enhetliga databas kan nås var som helst i hela organisationen.
- Även om den erforderliga tiden är längre ger periodisk analys av denna enda källa alltid bättre resultat.
- Datas säkerhet och integritet äventyras aldrig samtidigt som de blir tillgängliga i hela organisationen.
F # 13) Vad är fördelen med Session Partitioning?
Svar: Medan integrationstjänsten körs i miljön är arbetsflödet partitionerat för bättre prestanda. Dessa partitioner används sedan för att utföra extraktion, transformation och laddning.
F # 14) Hur kan vi skapa ett index efter avslutad lastprocess?
Svar: Kommandouppgifter används för att skapa ett index. Kommandotaskript kan användas i en session av arbetsflödet för att skapa ett index.
F # 15) Vad är sessioner?
Svar: Session är en uppsättning instruktioner som används när data flyttas från källan till destinationen. Vi kan partitionera sessionen för att implementera flera sekvenser av sessioner för att förbättra serverprestanda.
Efter att ha skapat en session kan vi använda serverhanteraren eller kommandoradsprogrammet pmcmd för att stoppa eller starta sessionen.
F # 16) Hur kan vi använda partier?
Svar: Batcher är samlingen av sessioner som används för att migrera data från källan till inriktning på en server. Batcher kan ha det största antalet sessioner i sig men de orsakar mer nätverkstrafik medan färre sessioner i en sats kan flyttas snabbt.
F # 17) Vad är kartläggning?
Svar: Mapping är en samling källor och mål som är länkade till varandra genom vissa uppsättningar av transformationer som Expression Transformation, Sorter Transformation, Aggregator Transformation, Router Transformation, etc.
F # 18) Vad är transformation?
Svar: Transformation kan definieras som en uppsättning regler och instruktioner som ska tillämpas för att definiera dataflöde och datalast vid destinationen.
F # 19) Vad är uttryckstransformation?
Svar: Det är en mappningstransformation som används för att transformera data i en post i taget. Uttryckstransformation kan vara passiv eller kopplad. Uttrycket används för datahantering och generering av utdata med villkorliga uttalanden.
F # 20) Vad är Transformation av uppdateringsstrategi?
Svar: Uppdateringsstrategi i Informatica används för att styra data som passerar genom den och märka den som INSERT, UPDATE, DELETE och REJECT. Vi kan ställa in en villkorlig logik i uppdateringsstrategitransformationen för att märka den.
F # 21) Vad är Sorter Transformation?
hur man implementerar en kö i java
Svar: Sorteringstransformation används för att sortera stora datamängder genom flera portar. Det är mycket troligt att det fungerar som ORDER BY-klausulen i SQL. Sorteringstransformation kan vara aktiv, passiv eller ansluten.
Aktiv transformation passerar genom mappning och ändrar antalet rader medan passiv transformation passerar genom mappning men ändrar inte antalet rader.
De flesta av INFORMATICA-transformationerna är anslutna till databanan.
F # 22) Vad är routertransformation?
Svar: Routertransformation används för att filtrera källdata. Du kan använda routertransformation för att dela upp en enda datakälla.
Det är ungefär som filtertransformation men den enda skillnaden är att filtertransformation endast använder ett transformationsvillkor och returnerar de rader som inte uppfyller villkoret, medan routertransformation använder flera transformationsvillkor och returnerar de rader som matchar till och med ett enda villkor.
F # 23) Vad är rangtransformation?
Svar: Rank transformation är aktiv såväl som ansluten. Den används för att sortera och rangordna en uppsättning poster antingen uppe eller nere. Det används också för att välja data med det största eller minsta numeriska värdet baserat på en viss port.
F # 24) Vad är Rank Index i Rank transformation?
Svar: Rankindex tilldelas av uppgiftsdesignern till varje post. Rankindexporten används för att lagra rankningsposition för varje rad. Ranktransformation identifierar varje rad från topp till botten och tilldelar sedan Rank Index.
F # 25) Vad är statuskod i INFORMATICA?
Svar: Koden tillhandahåller en felhanteringsmekanism under varje session. Statuskoden utfärdas av den lagrade proceduren för att känna igen om den har genomförts framgångsrikt eller inte och ger information till INFORMATICA-servern för att avgöra om sessionen måste stoppas eller fortsättas.
F # 26) Vad är skräpdimensioner?
Svar: Skräpdimension är en struktur som består av en grupp av vissa skräpattribut som slumpmässiga koder eller flaggor. Det bildar ett ramverk för att lagra relaterade koder med avseende på en viss dimension på en enda plats istället för att skapa flera tabeller för samma.
F # 27) Vad är Mapplet i Informatica?
Svar: Mapplet är ett återanvändbart objekt som innehåller en viss uppsättning regler för transformation och transformationslogik som kan användas i flera mappningar. Mapplet skapas i Mapplet Designer i designerverktyget.
F # 28) Vad är avkodning i Informatica?
Svar: För att förstå Decode, låt oss betrakta det som liknar CASE-uttalandet i SQL. Det är i grunden den funktion som används av en expressionstransformation för att söka efter ett specifikt värde i en post.
Det kan finnas obegränsade sökningar inom avkodningsfunktionen där en port anges för att returnera resultatvärden. Denna funktion används vanligtvis i fall där det krävs att ersätta kapslade IF-uttalanden eller att ersätta uppslagsvärden genom att söka i små tabeller med konstanta värden.
Avkodning är en funktion som används inom uttryckstransformation. Det används precis som CASE-uttalandet i SQL för att söka efter en specifik post.
Nedan följer ett enkelt exempel på ett CASE i SQL:
Syntax:
SELECT EMPLOYEE_ID, CASE WHEN EMPLOYEE_AGE <= 20 THEN 'Young' WHEN EMPLOYEE_AGE> 30 AND AGE <= 40 THEN 'Knowledgeable' WHEN EMPLOYEE_AGE> 40 AND AGE = 60 THEN ‘Wise’ ELSE ‘Very Wise’ END AS EMPLOYEE_WISDOM FROM EMPLOYEE
F # 29) Vad är Joiner Transformation i INFORMATICA?
Svar: Med hjälp av Joiner transformation kan du använda Joins i INFORMATICA.
Den bygger på två källor, nämligen:
- Huvudkälla
- Detaljkälla
Följande anslutningar kan skapas med hjälp av Joiner-transformation som i SQL.
- Normal anslutning
- Full yttre anslutning
- Master Outer Join (Right Outer Join)
- Detalj yttre anslutning (vänster yttre anslutning)
F # 30) Vad är Aggregator Transformation i INFORMATICA?
Svar: Aggregatortransformation kan vara aktiv eller ansluten. Det fungerar som GROUP BY-satsen i SQL. Det är användbart att utföra aggregerade beräkningar på grupper i INFORMATICA PowerCenter. Den utför en aggregerad beräkning av data med hjälp av aggregerad funktion, dvs. SUMMA, AVG, MAX och MIN.
F # 31) Vad är sekvensgenereringstransformation i INFORMATICA?
Svar: Sekvensgenerator Transformation kan vara passiv eller ansluten. Dess grundläggande användning är att generera heltal med NEXTVAL och CURRVAL.
F # 32) Vad är unionstransformation i INFORMATICA?
Svar: Unionstransformation används för att kombinera data från olika källor och rama in den med samma port och datatyp. Det är ungefär som en klausul i SQL.
F # 33) Vad är källkvalificeringstransformation i INFORMATICA?
Svar: Källkvalificeringstransformation är användbar vid mappning, varje gång vi lägger till relationella platta filer skapas den automatiskt. Det är en aktiv och ansluten transformation som representerar de rader som läses av integrationstjänsten.
F # 34) Vad är INFORMATICA Worklet?
Svar: Worklet fungerar som en Mapplet med funktionen för återanvändning, den enda skillnaden är att vi kan tillämpa Worklet på valfritt antal arbetsflöden i INFORMATICA, till skillnad från Mapplet. Worklet sparar logiken och uppgifterna på en enda plats för återanvändning.
Worklet liknar mycket Mapplet och definieras som den grupp av uppgifter som antingen kan återanvändas eller inte återanvändas på arbetsflödesnivå. Det kan läggas till så många arbetsflöden som krävs. Med sin återanvändningsfunktion sparas mycket tid, eftersom återanvändbar logik kan utvecklas en gång och kan placeras varifrån den kan återanvändas.
I INFORMATICA PowerCenter-miljön anses Mapplets vara den mest fördelaktiga funktionen. De skapas i Mapplet-designers och är en del av Designer-verktyget.
Den innehåller i grunden en uppsättning transformationer som är utformade för att återanvändas i flera kartläggningar.
Mapplets sägs vara återanvändbara objekt som förenklar kartläggning genom att:
- Inklusive flera transformationer och källdefinitioner.
- Krävs inte för att ansluta till alla ingångs- och utgångsportar.
- Acceptera data från källor och överför till flera transformationer
Tja, totalt sett när det krävs att återanvända kartläggningslogiken ska logiken placeras i Mapplet.
F # 35) Vad är SUBSTR i INFORMATICA?
Svar: SUBSTR är en funktion som extraherar eller tar bort en uppsättning tecken från en större teckenuppsättning.
Syntax: SUBSTR (sträng, start [, längd])
Var,
sträng definierar den karaktär som vi vill söka.
Start är ett heltal som används för att ställa in positionen där räkningen ska komma igång.
Längd är en valfri parameter som används för att räkna längden på en sträng som ska återgå från sin startposition.
Till exempel, SUBSTR (Contact, 5, 8), där vi börjar vid den 5: e karaktären i vår kontakt och återgår till nästa 8 tecken.
F # 36) Vad är kodsides kompatibilitet?
Svar: När data överförs från källkodssidan till målkodssidan måste alla källsidesegenskaper finnas på målsidan för att förhindra dataförlust, den här funktionen kallas kodsida-kompatibilitet.
Kodsidekompatibilitet kommer till bild när INFORMATICA-servern körs i Unicode-datarörelseläge. I det här fallet sägs de två kodsidorna vara identiska när deras kodade tecken är praktiskt taget identiska och resulterar således i ingen förlust av data.
För fullständig noggrannhet sägs det att källkodssidan är delmängden av målkodssidan.
F # 37) Hur kan du skilja mellan Connected LookUp och Unconnected LookUp?
Svar: Connected Lookup är en del av dataflödet som är ansluten till en annan transformation, det tar datainmatning direkt från en annan transformation som utför en uppslagning. Den använder både statisk och dynamisk cache.
Unconnected Lookup tar inte datainmatningen från en annan transformation men den kan användas som en funktion i vilken transformation som helst med hjälp av LKP (LookUp) -uttryck. Den använder den enda statiska cachen.
F # 38) Vad är inkrementell aggregering?
Svar: Inkrementell aggregering genereras så snart en session skapats. Den används för att beräkna ändringar i källdata som inte ändrar måldata med betydande förändringar.
KUND NEJ | BILL_NO | BELOPP | DATUM |
---|---|---|---|
1001 | 4001 | 1000 | 2016-01-01 |
2001 | 4002 | 2550 | 2016-01-01 |
3001 | 5012 | 4520 | 2016-01-01 |
1001 | 6024 | 2000 | 2016-01-23 |
1001 | 6538 | 5240 | 2016-01-23 |
2001 | 7485 | 5847 | 2016-01-23 |
1515 | 4572 | 6000 | 2016-01-23 |
Vid den första lasten är utgången:
KUND NEJ | BILL_NO | LOAD_KEY | BELOPP |
---|---|---|---|
1001 | 4001 | 20011 | 1000 |
2001 | 4002 | 20011 | 2550 |
3001 | 5012 | 20011 | 4520 |
Nu, vid den andra belastningen, kommer den att samla data med nästa sessionsdatum.
KUND NEJ | BILL_NO | LOAD_KEY | BELOPP | Anmärkningar / användning |
---|---|---|---|---|
1001 | 6538 | 20011 | 8240 | Cachefilen uppdateras efter aggregering |
2001 | 7485 | 20011 | 8397 | Cachefilen uppdateras efter aggregering |
3001 | 5012 | 20011 | 4520 | Ingen förändring |
5858 | 4566 | 20011 | 3550 | Ingen förändring |
1515 | 4572 | 20011 | 6000 | Ingen förändring |
F # 39) Vad är en surrogatnyckel?
Svar: En surrogatnyckel är ett sekventiellt genererat heltalvärde som används som en annan ersättning eller ersättning för den primära nyckeln som krävs som en unik identifiering av varje rad i en tabell.
Den primära nyckeln kan ändras ofta enligt behovet vilket gör uppdateringsprocessen svårare för ett framtida krav, Surrogatnyckel är den enda lösningen för detta problem.
F # 40) Vad är Session-uppgift och Command-uppgift?
Svar: Sessionsuppgift är en uppsättning instruktioner som ska tillämpas när data överförs från källa till mål med hjälp av sessionskommandot. Sessionskommandot kan vara antingen kommando före session eller kommando efter session.
Kommandouppgift är en specifik uppgift som gör att en eller flera skalkommandon för UNIX kan köras i Windows under arbetsflödet
F # 41) Vad är fristående kommandouppgift?
Svar: Den fristående kommandouppgiften kan användas för att köra kommandot Shell var som helst och när som helst i arbetsflödet.
F # 42) Vad är arbetsflöde? Vilka är komponenterna i Workflow Manager?
Svar: Arbetsflöde är sättet att uppgiften ska genomföras på. Det är en samling instruktioner som informerar servern om hur uppgiften ska genomföras.
Nedan följer de tre huvudkomponenterna i Workflow Manager:
- Uppgiftsdesigner
- Uppgiftsutvecklare
- Workflow Designer
F # 43) Vad är händelsen och vilka uppgifter har samband med den?
Svar: Händelsen kan vara vilken åtgärd eller funktion som helst som förekommer i arbetsflödet.
Det finns två uppgifter relaterade till det, som inkluderar:
- Event Wait Task: Den här uppgiften väntar tills en händelse inträffar, när händelsen har utlösts blir denna uppgift fullbordad och tilldelar nästa uppgift.
- Händelser höjer uppgiften: Event Raise-uppgift utlöser den specifika händelsen i arbetsflödet.
F # 44) Vad är en fördefinierad händelse och användardefinierad händelse?
Svar: Fördefinierade händelser är systemdefinierade händelser som väntar tills en specifik fil anländer till en specifik plats. Det kallas också som File-Watcher-händelse.
Användardefinierade händelser skapas av användaren för att höja när som helst i arbetsflödet när de har skapats.
F # 45) Vad är Target Designer och Target Load Order?
Svar: Target Designer används för att definiera Target of data.
När det finns flera källor eller en enda källa med flera partitioner kopplade till olika mål via INFORMATICA-servern, använder servern Target Load Order för att definiera den ordning i vilken data ska laddas till ett mål.
F # 46) Vad är iscenesättningsområdet?
Svar: Stagingområdet är en databas där tillfälliga tabeller som är anslutna till arbetsområdet lagras eller faktatabeller för att tillhandahålla ingångar för databehandling.
F # 47) Vad är skillnaden mellan STOP och ABORT?
Svar: Skillnaderna är följande:
- SLUTA kommandot körs på Session-uppgift, när den väl har höjts slutar integrationstjänsten att bara läsa data i datakällan men fortsätter bearbetningen och skriver den till målet.
- ABORT kommandot används för att helt stoppa integrationstjänsten från att läsa, bearbeta och skriva data till målet. Den har sin egen timeout-period på 60 sekunder för att avsluta bearbetning och skrivning av data via integrationstjänsten om inte då dödar den helt enkelt sessionen.
F # 48) Vilka är de olika LookUp-cacherna?
Svar: Sökning kan antingen cachas eller cachas. I grund och botten är den uppdelad i fem delar.
Dom är:
- Statisk cache
- Dynamisk cache
- Omplacera
- Ihållande cache
- Delad cache
Statisk cache kvarstår som den är utan förändring medan en session körs.
Dynamic Cache uppdateras kontinuerligt medan en session körs.
F # 49) Hur uppdaterar jag källedefinitionen?
Svar: Det finns två sätt att uppdatera källdefinitionen.
Dom är:
- Du kan redigera den befintliga källedefinitionen.
- Du kan importera en ny källa från databasen.
F # 50) Hur implementerar jag säkerhetsåtgärder med hjälp av en förvarshanterare?
Svar: Det finns tre sätt att genomföra säkerhetsåtgärder.
Dom är:
- Mapptillstånd inom ägare, grupper och användare.
- Låsning (läsa, skriva, hämta, spara och köra).
- Förvarets privilegier, dvs.
- Bläddra i arkivet.
- Använd Workflow Manager (för att skapa sessioner och batcher och ställa in dess egenskaper).
- Workflow Operator (för att utföra session och batcher).
- Använd Designer, Admin Repository (tillåter alla användare att skapa och hantera förvar).
- Admin-användare (tillåter användaren att skapa en förvarsserver och ställa in dess egenskaper).
- SuperUser (alla behörigheter beviljas användaren).
F # 51) Anmäl fördelarna med INFORMATICA.
Svar: Eftersom det betraktas som det mest gynnade dataintegrationsverktyget finns det flera fördelar som måste rekryteras.
Dom är:
- Det kan effektivt och mycket effektivt kommunicera och omvandla data mellan olika datakällor som Mainframe, RDBMS, etc.
- Det är vanligtvis mycket snabbare, robust och enkelt att lära sig än någon annan tillgänglig plattform.
- Med hjälp av INFORMATICA Workflow Monitor kan jobb enkelt övervakas, misslyckade jobb kan återställas samt långsamma jobb kan påpekas.
- Den har funktioner som enkel bearbetning av databasinformation, datavalidering, migrering av projekt från en databas till en annan, projektutveckling, iteration, etc.
F # 52) Anmäla några områden eller situationer i realtid där INFORMATICA krävs.
Svar: Datalager, dataintegration, datamigrering och applikationsmigrering från en plattform till andra plattformar är några exempel på användningsområden i realtid.
F # 53) Förklara ETL-programmet med några exempel.
Svar: ETL-verktyget är känt för sin unikhet och står för Extract, Transform and Load-verktyget som i grunden löser syftet med att extrahera data och skicka någonstans som definierat genom att ändra det.
För att vara mycket exakt:
- Extraktionsuppgiften är att samla in data från källor som databas, filer etc.
- Transformation betraktas som en förändring av data som har tagits emot från källan.
- Laddning definierar processen för matning av ändrade data till det definierade målet.
För att förstå på ett tekniskt sätt samlar ETL-verktyget in data från heterogena källor och ändras för att göra det homogent så att det kan användas vidare för analys av den definierade uppgiften.
Några grundläggande exempel på program inkluderar:
- Kartläggningar härleder ETL-processen för att läsa data från sina ursprungliga källor där kartläggningsprocessen görs hos designern.
- Arbetsflöden består av flera uppgifter som bestäms och utformas i Workflow Manager-fönstret.
- Uppgiften består av en uppsättning av flera steg som bestämmer sekvensen av åtgärder som ska utföras under körningstiden.
F # 54) Anmäl skillnaderna mellan databas och datalager.
Svar: Se tabellen nedan för att förstå skillnaderna mellan de två:
hur man skapar en strängmatris
Databas | Datalager |
---|---|
Den lagrar / registrerar aktuell och uppdaterad som används i den dagliga driften | Den lagrar / analyserar historisk data som används för informationsstöd på lång sikt. |
Dess inriktning är på online transaktionsbehandling som inkluderar enkla och korta transaktioner. | Dess inriktning är på online analytisk bearbetning som innehåller komplexa frågor. |
Den består av detaljerade och primitiva data där dess syn är platt relationell. | Den består av sammanfattade konsoliderade data där dess syn är flerdimensionell. |
Låg prestanda observeras för analytiska frågor. | Analytiska frågor bedöms här som höga prestanda. |
Effektiviteten bestäms genom att mäta transaktionens genomströmning. | Effektivitet bestäms genom att mäta frågenomströmning och svarstid. |
F # 55) Förklara funktionerna i den uppkopplade och ouppkopplade sökningen.
Svar: Funktionerna i Connected Lookup kan förklaras på följande sätt:
- Det finns en direkt inmatningskälla från rörledningen för ansluten sökning.
- Det deltar aktivt i dataflöde och både dynamisk, liksom statisk cache, används som det är fallet.
- Den cachar alla uppslagskolumner och returnerar standardvärdena som utdata när uppslagsvillkoret inte matchar.
- Mer än ett kolumnvärde kan returneras till utgångsporten.
- Flera utmatningsvärden skickas såväl som utgångsportar är länkade till en annan transformation.
- Connected lookup stöder användardefinierade standardvärden.
Funktionerna i okopplad sökning kan förklaras på följande sätt:
- Ouppkopplad sökning använder statisk cache och dess källa till inmatning är resultatet som tas emot från utdata från LKP-uttryck.
- Den cachar bara utsläppsportarna och returnerar värdet som NULL när uppslagningsvillkoret inte matchar.
- Endast en kolumn returneras från varje port.
- Endast ett utgångsvärde skickas till en annan transformation.
- Användardefinierade standardvärden stöds inte av okopplad sökning.
F # 56) Under pågående session skapas utdatafiler av Informatica-servern. Anskaffa några av dem.
Svar: Nedan nämns några få utdatafiler:
- Cachefiler: Dessa filer skapas när minnescache skapas. Under omständigheter som Lookup transformation, Aggregator transformation, etc skapas index- och datacache-filer av Informatica-servern.
- Sessionsdetaljfil: Som namnet definierar innehåller den här filen laddningsstatistik som tabellnamn, rader som avvisats eller skrivits för varje mål i kartläggningen och kan visas i bildskärmsfönstret.
- Prestationsdetaljfil: Den här filen är en del av sessionsegenskapsbladet och innehåller information om sessionens prestanda för att fastställa förbättringsområden.
- INFORMATICA-serverlogg: Servern skapar en logg för alla status- och felmeddelanden och kan ses i hemkatalogen.
- Sessionsloggfil: För varje session skapar servern en sessionsloggfil beroende på den inställda spårningsnivån. Informationen som kan ses i loggfiler om sessioner kan vara:
- Initieringsprocess för session,
- Skapa SQL-kommandon för läsare och skrivartrådar,
- Lista över påträffade fel
- Ladda sammanfattning
- E-post efter session: Detta hjälper till att kommunicera informationen om sessionen (sessionen avslutad / sessionen misslyckades) till önskade mottagare automatiskt.
- Avvisa fil: Den här filen innehåller information om de data som inte har använts / skrivits till mål.
- Kontrollfil: Om sessionen använder den externa laddaren består kontrollfilen av laddningsinstruktioner och dataformat om målfilen.
- Indikatorfil: Den här filen innehåller i princip ett nummer som markerar raderna markerade för INSERT / UPDATE / DELETE eller REJECT.
- Utdatafil: Utdatafilen skapas baserat på filegenskaperna.
F # 57) Hur skiljer man mellan de aktiva och passiva transformationerna?
Svar: För att förstå skillnaden mellan aktiva och passiva transformationer, låt oss se dess funktioner som kommer att förklara skillnaderna på ett bättre sätt.
Åtgärden som utförs av aktiva transformationer inkluderar:
- Ändra antalet rader enligt kravet som passerar genom omvandlingarna. Till exempel, Filtertransformation som raderar raden som inte uppfyller villkoret.
- Ändra transaktionsgränsen genom att ställa in återbetalnings- och åtagandepoäng. Till exempel, Transaktionskontrolltransformation.
- Ändra radtyp för INSERT / UPDATE / DELETE eller REJECT.
Handlingen som utförs av passiva transformationer inkluderar:
- Antalet rader som passerar genom omvandlingen ändras aldrig.
- Transaktionsgränsen är inställd.
- Radtyp är inställt.
F # 58) Anskaffa olika typer av transformationer.
Svar: De olika omvandlingstyperna är följande:
- Aggregatortransformation
- Uttryckstransformation
- Normaliseringstransformation
- Ranka transformation
- Filtertransformation
- Snickeretransformation
- Sökningstransformation
- Lagrad procedurtransformation
- Sortera transformation
- Uppdatera strategiomvandling
- XML-källkvalificeringstransformation
- Routertransformation
- Sekvensgenerator transformation
F # 59) Vad är Dynamic Cache?
Svar: INFORMATICA-sökningar kan kategoriseras antingen som cachade eller ej cachade. När det gäller dynamisk cache kan rader infogas eller raderas när raderna passeras och synkroniseras med målet. Cacheminnet uppdateras varje gång efter radering / uppdatering under sessionen.
F # 60) Vad är avkodning i statisk cache?
Svar: Statisk cache är den som varken uppdateras eller uppdateras under sessionskörningen. Det är standardcache och returnerar endast värdet när returvillkoret är sant. I andra fall returnerar det Null-värde. Infoga eller uppdatera cache kan inte utföras i det här fallet.
F # 61) Nämn några fördelar med routertransformation framför filtertransformation.
Svar: Routertransformation och filtertransformation är desamma eftersom båda använder ett villkor för att testa och filtrera data.
Fördelarna med Router jämfört med filtertransformation kan dock förstås av nedanstående punkter.
Router Transformation:
- Det tillåter mer än ett testvillkor.
- Ge möjligheten att testa samma indata på flera antal villkor.
- Vid kartläggning bearbetas ingångsdata endast en gång av servern och därmed förbättras prestandan.
- Mindre komplex och effektivare.
- De poster som misslyckas med testvillkoret blockeras aldrig istället för vidare till standardgruppen.
F # 62) Anskaffa några egenskaper för sessioner.
Svar: En session är tillgänglig i arbetsflödeshanteraren och konfigureras genom att skapa en sessionsuppgift. Inom ett kartläggningsprogram kan det finnas flera sessioner och det kan vara antingen återanvändbart eller icke-återanvändbart.
Några av sessionens egenskaper är som följer:
- Enligt kraven kan sessionsuppgifter köras antingen samtidigt eller i följd.
- En session kan konfigureras för att analysera prestanda.
- För att skapa eller köra en sessionsuppgift krävs att du har allmän information om sessionsnamn, schema och integrationstjänst.
- Andra viktiga egenskaper hos sessionen inkluderar sessionsloggfilen, testbelastningen, felhantering, engagemangsintervall, målegenskaper etc.
F # 63) Ange de uppgifter för vilka källkvalificeringstransformation används.
Svar: Källkvalificering betraktas som en aktiv omvandling som läser raderna som är inblandade i integrationstjänsten inom den pågående sessionen. Det avgör hur data hämtas från källan och läggs automatiskt till medan en källa läggs till i kartläggningen.
Listan över olika uppgifter där källkvalificering används är följande:
- Rader filtrering
- Datasortering
- Skapa anpassad fråga
- Sammanfoga tabeller från samma källa
- Välja distinkta värden
F # 64) Nämn några Power Center-klientapplikationer med deras grundläggande syfte?
Svar: Uppgifter som skapande av sessioner och arbetsflöden, övervakning av arbetsflödets framsteg, design av Mapplets etc. utförs av PowerCenter-klientapplikationer.
Nedan listas listan över PowerCenter-klientapplikationer med sitt syfte:
- Förvarshanterare: Det är ett administrativt verktyg och dess grundläggande syfte är att hantera förrådsmappar, objekt, grupper etc.
- Administrationskonsol: Här utförs serviceuppgifter som start / stopp, säkerhetskopiering / återställning, uppgradering / radering osv.
- Power Center-designer: Designern består av olika designverktyg som tjänar olika syften. Dessa designverktyg är:
- Källanalysator
- Måldesigner
- Transformationsutvecklare
- Mapplet Designer
- Mapping Manager
- Workflow Manager: Dess grundläggande syfte är att definiera en uppsättning instruktioner / arbetsflöde som krävs för att utföra mappningar som designats av designern. För att hjälpa till att utveckla ett arbetsflöde finns det 3 verktyg tillgängliga, nämligen Task-utvecklare, Workflow-designer, Worklet-designer.
- Workflow Monitor: Som namnet antyder övervakar arbetsflödesövervakningen arbetsflödet eller uppgifterna. Listan över tillgängliga fönster är:
- Navigatorfönster
- Utgångsfönster
- Tidsfönster
- Egenskapsfönster
- Uppgiftsöversikt
- Gantt-diagramvy
Slutsats
Jag hoppas, nu måste du ha fått en klar uppfattning om verktyget och vilken typ av frågor som kommer att ställas i intervjuer.
INFORMATICA är den bästa lösningen för att utföra dataintegration. Det fungerar med multidatahantering i en plattformsmiljö som Windows, Linux, Unix etc. och testas över 50 000+ plattformar för bättre resultat och bästa prestanda bland flera andra.
I ett nötskal är INFORMATICA ett ETL-verktyg som samlar information eller data från olika källor och laddar den informationen till de definierade specifika målen utan att faktiskt spara den. Dess uppgift är att leverera olika tjänster och resurser till olika maskiner och därmed måste den levererade informationen vara korrekt med anmärkningsvärda resultat.
Uppfräscha kunskap om Informatica-koncept genom den här artikeln och bli förberedd för din intervju direkt.
Med vänliga hälsningar!!!
Rekommenderad läsning
- Intervjufrågor och svar
- ETL Testing Intervju Frågor och svar
- Några knepiga manuella testfrågor och svar
- Topp 32 bästa datastationsintervjuer och frågor
- Top Teradata Intervju Frågor och svar
- Topp 30 SAS intervjufrågor och svar
- De 24 viktigaste intervjufrågorna för datamodellering med detaljerade svar
- 10 bästa dataanalysverktyg för perfekt datahantering [2021 LIST]
- Data Pool Feature i IBM Rational Quality Manager för testdatahantering
- Testdatahanteringskoncept, process och strategi
- 14 bästa verktyg för testdatahantering 2021