BigQuery может обрабатывать миллиарды записей за считанные секунды. Добавьте скрипт для автоматизации задачи и загрузите результат в электронную таблицу, и у вас будет информация, которая может быть представлена в таблицах и диаграммах.
Google анонсировала BigQuery еще в мае как способ позволить более или менее любому человеку получить доступ к «большим данным» с помощью базовых SQL-запросов. Вы можете загрузить данные в хранилище Google, а затем использовать SQL для извлечения интересующих вас данных. API работает с REST и JSON, и его ключевой особенностью является скорость. Набор данных, состоящий из 50 миллионов строк, запрашивается за несколько секунд. Есть несколько выборочных наборов данных, предоставленных Google, которые в общей сложности составляют около 60 миллиардов записей и запросов, которые по-прежнему возвращаются примерно за 5 секунд.
Если вы пропустили видео, показывающее объявление API BigQuery и Prediction, вы можете просмотреть его ниже:
Несмотря на то, что BigQuery довольно прост в использовании, он все равно может быть проще и гибче. То, что Google сделал сейчас, — это интеграция BigQuery со сценарием Google Apps и электронной таблицей. Конечно, электронная таблица-это естественное продолжение запроса данных. Как только у вас есть меньшее подмножество, электронную таблицу можно использовать для обработки и представления ее в виде простых диаграмм. Соедините это со сценарием, и у вас будет автоматический способ многократного запроса больших данных.
Единственным недостатком является то, что BigQuery все еще находится в закрытом бета-тестировании, и поэтому трудно выяснить точную работу системы. Когда и если он будет открыт для всех нас, он принесет большие данные на рабочий стол без необходимости инвестировать в кластеры или опыт Hadoop. Конечно, учитывая, что Google только что объявила структуру ценообразования для своего API прогнозирования, BigQuery вряд ли будет бесплатным, когда он будет выпущен в дикую природу.