Yahoo Search Búsqueda en la Web

Resultado de búsqueda

  1. Apache Spark is a scalable and fast engine for data engineering, data science, and machine learning on single-node or cluster machines. It supports Python, SQL, Scala, Java and R languages, and integrates with various frameworks and storage systems.

    • Download

      Installing with PyPi. PySpark is now available in pypi. To...

    • Libraries

      Spark SQL is developed as part of Apache Spark. It thus gets...

    • Documentation

      Apache Spark is a unified analytics engine for large-scale...

    • Examples

      Apache Spark ™ examples. This page shows you how to use...

  2. Apache Spark es un sistema de procesamiento distribuido de código abierto para cargas de trabajo de macrodatos. Aprenda cómo funciona, qué lo diferencia de Hadoop MapReduce y cómo usarlo con AWS.

  3. Apache Spark es un framework de computación (entorno de trabajo) en clúster open-source. Fue desarrollada originariamente en la Universidad de California, en el AMPLab de Berkeley. El código base del proyecto Spark fue donado más tarde a la Apache Software Foundation que se encarga de su mantenimiento desde entonces.

  4. Apache Spark es un motor de procesamiento de datos de código abierto para grandes conjuntos de datos, que ofrece velocidad, escalabilidad y programación para Big Data. Conozca cómo funciona Spark, sus componentes, sus API y cómo se compara con Hadoop.

  5. Learn how to use Apache Spark, a unified analytics engine for big data, with setup instructions, programming guides and other resources. Watch videos from Spark events, meetups and training sessions, and explore hands-on exercises and slides.

  6. Apache Spark es un motor de procesamiento de datos de código abierto para grandes conjuntos de datos, que ofrece velocidad, escalabilidad y programabilidad. Conozca cómo funciona Spark, sus componentes, sus API y sus aplicaciones en inteligencia artificial y machine learning.

  1. Otras búsquedas realizadas