• Home
  • CM Tooltip Glossary
  • Tokenization

Tokenization

« Back to Glossary Index

Tokenisierung bezieht sich auf einen Prozess, bei dem ein Teil der sensiblen Daten, wie z.B. eine Kreditkartennummer, durch einen Ersatzwert, ein so genanntes Token, ersetzt wird. Die sensiblen Daten müssen in der Regel immer noch an einem zentralen Ort sicher gespeichert werden, damit sie später wieder abgerufen werden können, und sie müssen stark geschützt werden. Die Sicherheit eines Tokenisierungsansatzes hängt von der Sicherheit der sensiblen Werte und dem Algorithmus und Prozess ab, der zur Erstellung des Ersatzwertes und dessen Rückführung in den Originalwert verwendet wird.

« Zurück zum Glossar-Index
Share on Facebook Share on Twitter