Avro es un sistema de serialización de datos desarrollado dentro del proyecto Apache Hadoop. Proporciona una estructura de datos rica, un formato de datos binario compacto y rápido, un archivo contenedor para almacenar datos persistentes, llamada a procedimiento remoto (RPC) e integración sencilla con lenguajes dinámicos. Avro utiliza JSON para definir tipos de datos y protocolos, y serializa los datos en un formato binario compacto. Su uso principal es en Hadoop, donde se emplea para la serialización e intercambio de datos. Avro es particularmente adecuado para aplicaciones que requieren evolución de esquemas (schema evolution), ya que almacena el esquema junto con los datos. Esto permite a los lectores procesar los datos incluso si el esquema ha cambiado desde que se escribieron. Las capacidades de evolución de esquemas de Avro, combinadas con su eficiente formato binario, lo convierten en una opción popular para el almacenamiento e intercambio de datos en entornos de big data. Soporta tipos de datos complejos y está diseñado para ser altamente eficiente (performant) tanto para la lectura como para la escritura de datos. Los archivos Avro se utilizan frecuentemente para almacenar grandes conjuntos de datos de forma distribuida.