Informatica Scenario Baserade intervjufrågor och svar - Introduktion

Informatica är ett mycket viktigt verktyg som används i datalagring, vilket hjälper till att hantera stora datamängder och rapportera analysen av data. Nedan följer några frågor som kommer att vara till hjälp när du deltar i en intervju om Informatica.

Så du har äntligen hittat ditt drömjobb i Informatica men undrar hur du knäcker Informatica-intervjun och vad som kan vara de troliga Informatica-scenaribaserade intervjufrågorna. Varje intervju är annorlunda och omfattningen av ett jobb är också annorlunda. Med detta i åtanke har vi utformat de vanligaste Informatica Scenario-baserade intervjufrågor och svar för att hjälpa dig att få framgång i din intervju.

Några av de viktigaste Informatica Scenario-baserade intervjufrågorna som ofta ställs i en intervju är följande:

1. Hur tar man bort duplicerade poster i Informatica? Förklara de olika sätten att göra det på?

Svar:
Det finns många sätt att eliminera dubbletter:

1. Om det finns duplikat i källdatabasen kan en användare använda egenskapen i källkvalificering. En användare måste gå till fliken Transformation och markera alternativet 'Select Distinct'. Dessutom kan en användare använda SQL-åsidosättande för samma ändamål. Användaren kan gå till fliken Egenskaper och i fliken SQL-fråga skriva den distinkta frågan.
2. En användare kan använda Aggregator och välja portar som nyckel för att få distinkta värden. Om en användare vill hitta dubbletter i hela kolumnen bör alla portar väljas som en grupp för nyckel.
3. Användaren kan också använda Sorter med Sortera distinkt egenskap för att få distinkta värden.
4. Expression och filtertransformation kan också användas för att identifiera och ta bort duplicerade data. Om data inte sorteras måste de sorteras först.
5. När en egenskap i Lookup-transformation ändras för att använda dynamisk cache läggs en ny port till transformationen. Denna cache uppdateras när data läses. Om en källa har duplicerade poster kan användaren titta i dynamisk uppslagningscache och sedan väljer routern endast en distinkt post.

2. Vad är skillnaden mellan källkvalificering och filtertransformation?

Svar:
Källkvalificeringstransformation används för att representera rader som integrationstjänsten läser under en session. Det är en aktiv transformation. Med hjälp av källkvalificering kan följande uppgifter utföras:
1. När två tabeller från samma källdatabas med primär nyckel - utländsk nyckeltransformation är där kan källorna kopplas till en källkvalificeringstransformation.
2. Filtrera rader när integrationstjänsten lägger till en där-klausul till användarens standardfråga.
3. När en användare vill ha en yttre koppling istället för en inre koppling, ersätts sedan kopplingsinformation med metadata som anges i SQL-frågan.
4. När sorterade portar anges använder integrationstjänsten ordning efter klausul till standardfrågan.
5. Om en användare väljer att hitta ett distinkt värde, använder integrationstjänsten välj distinkt till den angivna frågan.
När de data vi behöver filtrera inte är en relationskälla bör användaren använda filtertransformation. Det hjälper användaren att uppfylla det angivna filtervillkoret för att släppa eller passera. Det släpper direkt raderna som inte uppfyller villkoret och flera villkor kan anges.

3. Planera en kartläggning för att ladda de tre senaste raderna från en platt fil till målet?

Svar:
Anta att den ifrågavarande platta filen har nedan data:
Kolumn A
Aanchal
priya
Karishma
Snehal
Nupura

Steg 1 : Tilldela radnummer till varje post. Generera radnummer med hjälp av uttryckstransformation genom att skapa en variabelport och öka den med 1. Efter detta tilldelar du denna variabla port till utgångsporten. Efter uttryckstransformation kommer portarna att vara -

Variable_count = Variable_count + 1
O_count = Variable_count
Skapa en dummy-utgångsport för samma uttryckstransformation och tilldela 1 till den porten. Denna dummyport kommer alltid att returnera 1 för varje rad.
Slutligen kommer transformationsuttrycket att vara följande:
Variable_count = Variable_count + 1
O_count = Variable_count
Dummy_output = 1

Resultatet av denna omvandling kommer att vara:
Kolumn A O_count Dummy_output
Aanchal 1 1
Priya 2 1
Karishma 3 1
Snehal 4 1
Nupura 5 1

Steg 2 : Överför ovanstående utgång till en aggregator och ange inte någon grupp efter villkor. En ny utgångsport ska skapas som O_total_records i aggregatorn och tilldela O_count-port till den. Aggregatorn returnerar den sista raden. Den slutliga utgången från detta steg kommer att ha dummyport med värdet 1 och O_total_records kommer att ha ett totalt antal poster i källan. Aggregatorns utgång är: O_total_records, Dummy_output
5 1

Steg 3 : Vidarebefordra denna utgång till snicktransformation och applicera en koppling på dummy-porten. Egenskapens sorterade ingång bör kontrolleras i snicktransformation. Först då kan användaren ansluta både uttryck och aggregattransformation till snicktransformation. Snickareomvandlingsvillkor kommer att vara följande:
Dummy_output (port från aggregator transformation) = Dummy_output (port från expression transformation)

Utgången från skarvtransformation kommer att vara
Kolumn A o_count o_total_records
Aanchal 1 5
Priya 2 5
Karishma 3 5
Snehal 4 5
Nupura 5 5

Steg 4 : Efter snicktransformationen kan vi skicka denna utgång till filtertransformation och ange filtervillkor som O_total_records (port från aggregator) -O_count (port from expression) <= 2

Filtervillkoret blir som ett resultat
O_total_records - O_count <= 2

Den slutliga utgången från filtertransformation kommer att vara:
Kolumn A o_count o_total_records
Karishma 3 5
Snehal 4 5
Nupura 5 5

4. Hur laddar du bara NULL-poster i målet? Förklara med hjälp av kartläggningsflöde?

Svar:
Betrakta nedanstående data som en källa
Emp_Id Emp_Name Salary City Pincode
619101 Aanchal Singh 20000 Pune 411051
619102 Nupura Pattihal 35000 Nagpur 411014
NULL NULL 15000 Mumbai 451021

Måltabellen har också tabellstruktur som källa. Vi kommer att ha två tabeller, en som innehåller NULL-värden och andra som inte innehåller NULL-värden.
Kartläggningen kan vara som:

SQ -> EXP -> RTR -> TGT_NULL / TGT_NOT_NULL
EXP - Uttryckstransformation skapar en utgångsport
O_FLAG = IIF ((ISNULL (emp_id) ELLER ISNULL (emp_name) ELLER ISNULL (lön) ELLER ISNULL (City) ELLER ISNULL (Pincode)), 'NULL', 'NNULL')
RTR - Routeromvandling två grupper
Grupp 1 ansluten till TGT_NULL (Uttryck O_FLAG = 'NULL')
Grupp 2 ansluten till TGT_NOT_NULL (Uttryck O_FLAG = 'NNULL')

5. Förklara hur prestandan för snickare kan förbättras?

Svar:
Prestandan för skarvskick kan ökas genom att följa några enkla steg.
1) Användaren måste utföra sammanfogningar när det är möjligt. När det för vissa tabeller inte är möjligt kan en användare skapa en lagrad procedur och sedan gå med i tabellerna i databasen.
2) Uppgifterna ska sorteras innan ansökan anslutas när det är möjligt.
3) När data inte är sorterade bör en källa med färre antal rader betraktas som en huvudkälla.
4) För sorterad snicktransformation bör en källa med mindre duplicerade nyckelvärden betraktas som en huvudkälla.

Rekommenderad artikel

Detta har varit en guide till Lista över Informatica Scenario-baserade intervjufrågor och svar så att kandidaten enkelt kan slå samman dessa Informatica Scenario-baserade intervjufrågor. Du kan också titta på följande artiklar för att lära dig mer -

  1. Maven intervjufrågor och svar | Topp och mest frågade
  2. 10 avancerade AngularJS intervjufrågor för erfarna
  3. Guide till Informatica ETL-verktyg
  4. 12 mest fantastiska selenintervjufrågor och svar
  5. Fantastisk guide till Informatica Architecture
  6. Komplett guide till Informatica vs Datastage