Introduktion till Hadoop fs kommandon

I den här artikeln kommer vi att gå igenom filhanterande kommandon för HADOOP, som används för att hantera filerna genom konsolen.

Du kommer att behöva ett Linux-system och den senaste Hadoop-versionen. För att skriva ut Hadoop-versionen, för att veta vem utgåvan byggdes, kontrollsumma-värde behöver vi bara utföra kommandot nedan efter inloggning på Hadoop-plattformen.

Kommando: Hadoop-version

Hadoop fs kommandon

Låt oss nu lära dig hur du använder HADOOP fs-kommandon.

Vi börjar med grunderna. Skriv bara dessa kommandon i PUTTY eller vilken konsol du är bekväm med.

1. hadoop fs -ls

För en katalog returnerar den listan över filer och kataloger medan den för en fil returnerar statistiken för filen.

hadoop fs -lsr: detta är för rekursivt att lista kataloger och filer under specifika mappar.

  • Exempel : hadoop fs -ls / eller hadoop fs -lsr
Obs : hadoop fs -ls (-d) (-h) (-R)
  • -d: Detta används för att lista katalogerna som vanliga filer.
  • -h: Detta används för att formatera storleken på filer på ett mänskligt läsbart sätt än bara antalet byte.
  • -R: Detta används för att rekursivt lista innehållet i kataloger.
2. hadoop fs -mkdir

Detta kommando tar vägen som ett argument och skapar kataloger i hdfs.

  • Exempel : hadoop fs -mkdir / user / datahub1 / data
Obs: Om vi ​​försöker skapa underkataloger, måste moderkatalogen finnas. Om detta villkor inte uppfylls kommer "Ingen sådan fil eller katalog" att visas.
3. hadoop fs -ouchouch

Det skapar en tom fil och använder inget utrymme

  • Exempel: hadoop fs -ouchouch URI
4. hadoop fs -rm

Radera filer som anges som argument. Vi måste ange alternativet -r för att radera hela katalogen. Om alternativet -skipTrash anges kommer det att hoppa över papperskorgen och filen kommer att raderas omedelbart.

  • Exempel : hadoop fs -rm -r /user/test1/abc.text
5. hadoopfs -rmdir

Det tar bort filer och behörigheter för kataloger och underkataloger. I princip är det den utvidgade versionen av Hadoop fs-rm.

6. hadoop fs-cp

Den kopierar filen från en plats till en annan

  • Exempel : hadoop fs -cp /user/data/abc.csv / user / datahub
7. hadoop fs -copyFromLocal

Den kopierar filen från edgenode till HDFS.

8. hadoop fs-utgång

Den kopierar filen från edgenode till HDFS, den liknar det föregående kommandot men sätter också läser inmatning från standardinmatning stdin och skriver till HDFS

  • Exempel : hadoop fs -put abc.csv / user / data
Obs :
hadoop fs -put -p: Flaggan bevarar åtkomst, modifieringstid, ägande och läge.
hadoop fs -put -f: Detta kommando skriver över destinationen om filen redan finns före kopian.
9. hadoop fs -moveFromLocal

Det liknar kopia från lokalt förutom att källfilen raderas från lokal edgenode efter att den har kopierats till HDFS

  • Exempel : fs -moveFromLocal abc.text / user / data / acb.
10. hadoop fs -copyToLocal

Den kopierar filen från HDFS till edgenode.

  • Exempel : fs -copyToLocal abc.text / localpath
11. hadoop fs -chmod

Detta kommando hjälper oss att ändra åtkomst till en fil eller katalog

  • Exempel : hadoop fs -chmod (-R) (sökväg)
12. hadoop fs-chown

Detta kommando hjälper oss att ändra äganderätten till en fil eller katalog

  • Exempel : hadoop fs-chown (-R) (ÄGARE) (:( GROUP)) PATH
13. hadoop fs-katt

Den skriver ut innehållet i en HDFS-fil på terminalen

  • Exempel : hadoop fs -cat /user/data/abc.csv
14. hadoop fs-tail

Den visar sista KB av HDFS-filen till stdout

  • Exempel : hadoop fs-tail / in / xyzfile
15. hadoop fs-test

Detta kommando används för HDFS-filtestoperationer, det returnerar 0 om det är sant.

  • - e: kontrollerar om filen finns.
  • -z: kontrollerar om filen är noll längd
  • -d / -f: kontrollerar om sökvägen är katalog / fil

Här diskuterar vi ett exempel i detalj

  • Exempel : hadoop fs -test - (defz) /user/test/test1.text
16. hadoop fs -du

Visar storlekar på filer och kataloger som finns i den givna katalogen eller längden på en fil om det är en fil

17. hadoop fs -df

Det visar ledigt utrymme

18. hadoop fs-checksum

Returnerar kontrollsumman för en fil

19. hadoop fs -getfacl

Den visar åtkomstkontrollistan (ACL: er) för den aktuella filen eller katalogen

20. hadoop fs -antal

Det räknar antalet kataloger, filer och byte under sökvägen som matchar det angivna filmönstret.

21. hadoop fs -setrep

Ändrar replikationsfaktorn för en fil. Och om sökvägen är en katalog ändrar kommandot replikeringsfaktorn för alla filer under katalogen.

  • Exempel : hadoop fs -setrep -R / user / datahub: det används för att acceptera bakåtfunktionen och har ingen effekt.

hadoop fs - setrep -w / user / datahub : väntar på att replikationen är klar

22. hadoop fs -getmerge

Den sammanfogar HDFS-filer i källan till den lokala destinationsfilen

  • Exempel : hadoop fs -getmerge / user / datahub
23. hadoop fs -appendToFile

Lägger till en enda källa eller flera källor från det lokala filsystemet till destinationen.

  • Exempel : hadoop fs -appendToFile xyz.log data.csv / in / appendfile
24. hadoop fs -stat

Det skriver ut statistiken om filen eller katalogen.

  • Exempel : hadoop fs -stat (format)

Slutsats - Hadoop fs kommandon

Så vi har gått igenom nästan alla kommandon som är nödvändiga för filhantering och visa data inuti filerna. Du kan ändra dina filer och ta in data i Hadoop-plattformen nu.

Rekommenderade artiklar

Detta är en guide till Hadoop fs kommandon. Här diskuterar vi introduktionen till Hadoop fs-kommandon tillsammans med dess exempel i detalj. Du kan också titta på följande artiklar för att lära dig mer-

  1. Installera Hadoop
  2. Hadoop Tools
  3. Hadoop Arkitektur
  4. Hadoop-komponenter
  5. Hadoop fs kommandon

Kategori: