PYSPARK - Count

PYSPARK - Count
W Python PYSPARK to moduł Spark używany do zapewnienia podobnego rodzaju przetwarzania, takiego jak Spark za pomocą DataFrame. Count () w PYSPARK służy do zwrócenia liczby wierszy z określonej kolumny w ramce danych. Możemy uzyskać liczbę na trzy sposoby.
  1. Metoda 1: metodą Select ()
  2. Metoda 2: Za pomocą metody AGG ()
  3. Metoda 3: Za pomocą metody GroupBy ()

Wcześniej musimy stworzyć PYSPARK DATAFRAME do demonstracji.

Przykład:

Utworzymy ramkę danych z 5 wierszami i 6 kolumnami i wyświetlimy ją za pomocą metody show ().

#Wportu na moduł PYSPARK
Import Pyspark
#Import Sparksession do tworzenia sesji
od Pyspark.SQL Import Sparksession
#Utworz aplikację o nazwie Linuxhint
Spark_App = Sparksession.budowniczy.AppName („Linuxhint”).getorCreate ()
# Utwórz dane ucznia z 5 wierszy i 6 atrybutów
studenci = [
„Rollno”: „001”, „nazwa”: „Sravan”, „wiek”: 23,
„Wysokość”: 5.79, „waga”: 67, „Adres”: „Guntur”,
„Rollno”: „002”, „nazwa”: „Ojaswi”, „wiek”: 16,
„Wysokość”: 3.79, „waga”: 34, „Adres”: „Hyd”,
„Rollno”: „003”, „nazwa”: „Gnanesh Chowdary”, „wiek”: 7,
„Wysokość”: 2.79, „waga”: 17, „Adres”: „Patna”,
„Rollno”: „004”, „nazwa”: „Rohith”, „wiek”: 9,
„Wysokość”: 3.69, „waga”: 28, „Adres”: „hyd”,
„Rollno”: „005”, „nazwa”: „Sridevi”, „wiek”: 37,
„Wysokość”: 5.59, „waga”: 54, „Adres”: „Hyd”]
# Utwórz ramkę danych
df = Spark_App.CreatedataFrame (studenci)
#Display DataFrame
df.pokazywać()

Wyjście:

Metoda -1: metodą Select ()

Możemy uzyskać liczbę z kolumny w ramce danych za pomocą metody select (). Za pomocą metody Count () możemy uzyskać całkowitą liczbę wierszy z kolumny. Aby użyć tej metody, musimy ją zaimportować z Pyspark.SQL.Moduł funkcji, a na koniec możemy użyć metody kolekcji (), aby uzyskać liczbę z kolumny

Składnia:

df.Wybierz (hrabia ('kolumn_name')))

Gdzie,

  1. DF to wejście PYSPARK DATAFRAME
  2. Kolumna_nazwa to kolumna, która otrzymuje całkowitą liczbę wierszy (liczba).

Jeśli chcemy zwrócić liczbę z wielu kolumn, musimy użyć metody hrabiego (.

Składnia:

df.Wybierz (hrabia ('kolumn_name'), count ('kolumn_name'),… ., hrabia ('kolumn_name')))

Gdzie,

  1. DF to wejście PYSPARK DATAFRAME
  2. Kolumna_nazwa to kolumna, która otrzymuje całkowitą liczbę wierszy (liczba).

Przykład 1: Pojedyncza kolumna

Ten przykład otrzyma liczbę z kolumny wysokości w Pyspark DataFrame.

#Wportu na moduł PYSPARK
Import Pyspark
#Import Sparksession do tworzenia sesji
od Pyspark.SQL Import Sparksession
#Wportu na funkcję Count
od Pyspark.SQL.Funkcje importowe liczba
#Utworz aplikację o nazwie Linuxhint
Spark_App = Sparksession.budowniczy.AppName („Linuxhint”).getorCreate ()
# Utwórz dane ucznia z 5 wierszy i 6 atrybutów
studenci = [
„Rollno”: „001”, „nazwa”: „Sravan”, „wiek”: 23,
„Wysokość”: 5.79, „waga”: 67, „Adres”: „Guntur”,
„Rollno”: „002”, „nazwa”: „Ojaswi”, „wiek”: 16,
„Wysokość”: 3.79, „waga”: 34, „Adres”: „Hyd”,
„Rollno”: „003”, „nazwa”: „Gnanesh Chowdary”, „wiek”: 7,
„Wysokość”: 2.79, „waga”: 17, „Adres”: „Patna”,
„Rollno”: „004”, „nazwa”: „Rohith”, „wiek”: 9,
„Wysokość”: 3.69, „waga”: 28, „Adres”: „hyd”,
„Rollno”: „005”, „nazwa”: „Sridevi”, „wiek”: 37,
„Wysokość”: 5.59, „waga”: 54, „Adres”: „Hyd”]
# Utwórz ramkę danych
df = Spark_App.CreatedataFrame (studenci)
#zwróć liczbę wartości/wierszy z kolumny wysokości
#Korzystanie z liczby
df.Wybierz (count („wysokość”)).zbierać()

Wyjście:

[Wiersz (liczba (wysokość) = 5)]

W powyższym przykładzie zwracana jest liczba z kolumny wysokości.

Przykład 2: Wiele kolumn

Ten przykład otrzyma liczbę z kolumn wysokości, wieku i wagi w Pyspark DataFrame.

#Wportu na moduł PYSPARK
Import Pyspark
#Import Sparksession do tworzenia sesji
od Pyspark.SQL Import Sparksession
#Wportu na funkcję Count
od Pyspark.SQL.Funkcje importowe liczba
#Utworz aplikację o nazwie Linuxhint
Spark_App = Sparksession.budowniczy.AppName („Linuxhint”).getorCreate ()
# Utwórz dane ucznia z 5 wierszy i 6 atrybutów
studenci = [
„Rollno”: „001”, „nazwa”: „Sravan”, „wiek”: 23,
„Wysokość”: 5.79, „waga”: 67, „Adres”: „Guntur”,
„Rollno”: „002”, „nazwa”: „Ojaswi”, „wiek”: 16,
„Wysokość”: 3.79, „waga”: 34, „Adres”: „Hyd”,
„Rollno”: „003”, „nazwa”: „Gnanesh Chowdary”, „wiek”: 7,
„Wysokość”: 2.79, „waga”: 17, „Adres”: „Patna”,
„Rollno”: „004”, „nazwa”: „Rohith”, „wiek”: 9,
„Wysokość”: 3.69, „waga”: 28, „Adres”: „hyd”,
„Rollno”: „005”, „nazwa”: „Sridevi”, „wiek”: 37,
„Wysokość”: 5.59, „waga”: 54, „Adres”: „Hyd”]
# Utwórz ramkę danych
df = Spark_App.CreatedataFrame (studenci)
#Zwróć liczbę z kolumn wysokości, wieku i wagi
df.Wybierz (count („wysokość”), Count („Age”), Count („waga”)).zbierać()

Wyjście:

[Wiersz (liczba (wysokość) = 5, liczba (wiek) = 5, liczba (waga) = 5)]

W powyższym przykładzie zwracana jest liczba z kolumn wysokości, wieku i wagi.

Metoda - 2: Za pomocą metody AGG ()

Możemy uzyskać liczbę z kolumny w ramce danych za pomocą metody agg (). Ta metoda jest znana jako agregacja, która grupuje wartości w kolumnie. Wystąpi słownik jako parametr w tym kluczu, nazwa kolumny, a wartość jest funkcją agregowanej, i.mi., liczyć. Za pomocą metody Count () możemy uzyskać liczbę wierszy z kolumny, a na koniec możemy użyć metody Collect (), aby uzyskać liczbę z kolumny.

Składnia:

df.AGG ('kolumn_name': count)

Gdzie,

  1. DF to wejście PYSPARK DATAFRAME
  2. Kolumna_nazwa to kolumna, która otrzymuje całkowitą liczbę wierszy (liczba).
  3. Liczba jest funkcją agregacji używaną do zwrócenia liczby wierszy

Jeśli chcemy zwrócić liczbę z wielu kolumn, musimy określić nazwę kolumny z funkcją liczby oddzielonej przecinkiem.

Składnia:

df.agg ('kolumn_name': count, 'kolumn_name': count,…, 'kolumn_name': count)

Gdzie,

  1. DF to wejście PYSPARK DATAFRAME
  2. Kolumna_nazwa to kolumna, która otrzymuje całkowitą liczbę wierszy (liczba).
  3. Liczba jest funkcją agregacji używaną do zwrócenia całkowitej liczby wierszy

Przykład 1: Pojedyncza kolumna

Ten przykład otrzyma liczbę z kolumny wysokości w Pyspark DataFrame.

#Wportu na moduł PYSPARK
Import Pyspark
#Import Sparksession do tworzenia sesji
od Pyspark.SQL Import Sparksession
#Utworz aplikację o nazwie Linuxhint
Spark_App = Sparksession.budowniczy.AppName („Linuxhint”).getorCreate ()
# Utwórz dane ucznia z 5 wierszy i 6 atrybutów
studenci = [
„Rollno”: „001”, „nazwa”: „Sravan”, „wiek”: 23,
„Wysokość”: 5.79, „waga”: 67, „Adres”: „Guntur”,
„Rollno”: „002”, „nazwa”: „Ojaswi”, „wiek”: 16,
„Wysokość”: 3.79, „waga”: 34, „Adres”: „Hyd”,
„Rollno”: „003”, „nazwa”: „Gnanesh Chowdary”, „wiek”: 7,
„Wysokość”: 2.79, „waga”: 17, „Adres”: „Patna”,
„Rollno”: „004”, „nazwa”: „Rohith”, „wiek”: 9,
„Wysokość”: 3.69, „waga”: 28, „Adres”: „hyd”,
„Rollno”: „005”, „nazwa”: „Sridevi”, „wiek”: 37,
„Wysokość”: 5.59, „waga”: 54, „Adres”: „Hyd”]
# Utwórz ramkę danych
df = Spark_App.CreatedataFrame (studenci)
#zwróć liczbę wierszy Kolumna wysokości
df.AGG („Height”: „Count”).zbierać()

Wyjście:

[Wiersz (liczba (wysokość) = 5)]

W powyższym przykładzie zwracana jest liczba z kolumny wysokości.

Przykład 2: Wiele kolumn

Ten przykład otrzyma liczbę z kolumn wysokości, wieku i wagi w Pyspark DataFrame.

#Wportu na moduł PYSPARK
Import Pyspark
#Import Sparksession do tworzenia sesji
od Pyspark.SQL Import Sparksession
#Utworz aplikację o nazwie Linuxhint
Spark_App = Sparksession.budowniczy.AppName („Linuxhint”).getorCreate ()
# Utwórz dane ucznia z 5 wierszy i 6 atrybutów
studenci = [
„Rollno”: „001”, „nazwa”: „Sravan”, „wiek”: 23,
„Wysokość”: 5.79, „waga”: 67, „Adres”: „Guntur”,
„Rollno”: „002”, „nazwa”: „Ojaswi”, „wiek”: 16,
„Wysokość”: 3.79, „waga”: 34, „Adres”: „Hyd”,
„Rollno”: „003”, „nazwa”: „Gnanesh Chowdary”, „wiek”: 7,
„Wysokość”: 2.79, „waga”: 17, „Adres”: „Patna”,
„Rollno”: „004”, „nazwa”: „Rohith”, „wiek”: 9,
„Wysokość”: 3.69, „waga”: 28, „Adres”: „hyd”,
„Rollno”: „005”, „nazwa”: „Sridevi”, „wiek”: 37,
„Wysokość”: 5.59, „waga”: 54, „Adres”: „Hyd”]
# Utwórz ramkę danych
df = Spark_App.CreatedataFrame (studenci)
#zwróć liczbę wierszy z kolumn wysokości, wieku i wagi
df.AGG („Height”: „Count”, „Age”: „Count”, „waga”: „liczba”).zbierać()

Wyjście:

[Wiersz (liczba (waga) = 5, liczba (wiek) = 5, liczba (wysokość) = 5)]

W powyższym przykładzie zwracana jest liczba z kolumn wysokości, wieku i wagi.

Metoda - 3: Za pomocą metody GroupBy ()

Możemy uzyskać liczbę z kolumny w ramce danych za pomocą metody GroupBy (). Ta metoda zwróci całkowitą liczbę wierszy, grupując podobne wartości w kolumnie. Musimy użyć funkcji Count () po wykonaniu funkcji GroupBy ()

Składnia:

df.Groupby (grupa_kolumn). liczyć()

Gdzie,

  1. DF to wejście PYSPARK DATAFRAME
  2. Group_Column to kolumna, w której wartości są pogrupowane na podstawie tej kolumny
  3. Liczba jest funkcją zagregowaną używaną do zwrócenia całkowitej liczby wierszy na podstawie zgrupowanych wierszy

Przykład :

W tym przykładzie zamierzamy zgrupować kolumnę adresową i otrzymamy liczbę

#Wportu na moduł PYSPARK
Import Pyspark
#Import Sparksession do tworzenia sesji
od Pyspark.SQL Import Sparksession
#Utworz aplikację o nazwie Linuxhint
Spark_App = Sparksession.budowniczy.AppName („Linuxhint”).getorCreate ()
# Utwórz dane ucznia z 5 wierszy i 6 atrybutów
studenci = [
„Rollno”: „001”, „nazwa”: „Sravan”, „wiek”: 23,
„Wysokość”: 5.79, „waga”: 67, „Adres”: „Guntur”,
„Rollno”: „002”, „nazwa”: „Ojaswi”, „wiek”: 16,
„Wysokość”: 3.79, „waga”: 34, „Adres”: „Hyd”,
„Rollno”: „003”, „nazwa”: „Gnanesh Chowdary”, „wiek”: 7,
„Wysokość”: 2.79, „waga”: 17, „Adres”: „Patna”,
„Rollno”: „004”, „nazwa”: „Rohith”, „wiek”: 9,
„Wysokość”: 3.69, „waga”: 28, „Adres”: „hyd”,
„Rollno”: „005”, „nazwa”: „Sridevi”, „wiek”: 37,
„Wysokość”: 5.59, „waga”: 54, „Adres”: „Hyd”]
# Utwórz ramkę danych
df = Spark_App.CreatedataFrame (studenci)
#zwróć liczbę wierszy przez grupowanie kolumny adresu
df.Groupby („Adres”).liczyć().zbierać()

Wyjście:

Istnieją trzy unikalne wartości w polu adresu - Hyd, Guntur i Patna. Więc liczba zostanie utworzona przez grupowanie wartości między wartościami adresu.

[Wiersz (adres = „hyd”, count = 3),
Wiersz (adres = „guntur”, count = 1),
Wiersz (adres = „patna”, count = 1)]

Wniosek:

Omówiliśmy, jak uzyskać liczbę z Pyspark DataFrame za pomocą metod select () i agg (). Aby uzyskać całkowitą liczbę wierszy poprzez grupowanie z innymi kolumnami, użyliśmy grupy wraz z funkcją Count ().