Prosty algorytm pozwalający otrzymać Differential Privacy, a nawet local differential privacy.

Działa w następujący sposób: mamy przykład ze zbioru treningowego, (cechy) oraz (label); z prawdopodobieństwem zwracamy oryginalny label, z prawdopodobieństwem zwracamy label wylosowany z rozkładu jednostajnego.

Taki sposób zachowuje prywatność pojedynczego użytkownika (pojedynczego wpisu w datasecie), ale wprowadza duży błąd.

Źródło: Deep Learning with Label Differential Privacy