DataLens is a modern business intelligence and data visualization system. It was developed and extensively used as a primary BI tool in Yandex and is also available as a part of Yandex Cloud platform. See also our roadmap, releases notes and community in telegram.
Внимание: авторизация Zitadel
не будет работать совместно с datalens-auth
!!!
git clone https://github.com/akrasnov87/datalens && cd datalens docker compose -f docker-compose-demo.yml --env-file ./.env.demo up -d
Примечание: процесс полного разворачивания может занять некоторое время. Если авторизация не проходит и выходит ошибка со статусом 500
- это значит backend ещё не развёрнут, ждите.
Внимание: предварительно лучше удалить каталог metadata
, если он есть. Но будте осторожны т.к. в папке храняться Ваши предыдущие данные!!!
Для тестирования иногда используется альфа-сборка, её можно запустить командой
docker compose -f docker-compose-alpha.yml --env-file ./.env.alpha up -d
Основное отличие её от демонстрационной это - появление новых функций, которые тестируются или дорабатываются.
БД по умолчанию есть три пользователя:
- master - пользователь с максимальными правами
- admin - пользователь с правами для просмотра и редактирования информации по указаному
project_id
- user - пользователь для просмотра данных
Пароль по умолчанию у всех: qwe-123
С репозитория https://github.com/datalens-tech/datalens
были скачены и изменены:
- datalens-backend
- datalens-ui
- datalens-us
- datalens
Изменённые версии:
Создан новый компонент для авторизации:
Исходный код БД us-db-ci_purgeable
При работе с решением datalens
, где включена авторизация в базе данных создаётся новая схема core
. В ней присутствуют таблицы и функции, которые обеспечивают механизм авторизации.
Примечание: если требуется отключить создание данных для авторизации, то указываем параметр USE_AUTH_DATA=0
pd_users - Пользователи
Предназначена для хранение учётных записей.
Примечание: в таблице есть колонка c_password
, по умолчанию она пустая. В ней можно хранить пароль в открытом виде (без шифрования), но при этом нужно удалить данные из колонки s_hash
.
pd_roles - Роли
Предназначена для хранения списка ролей, которые поддерживаются системой. По умолчанию загружено 3 (три) роли - их лучше не трогать!!! Новые можно создавать в неограниченном количестве.
- master - роль с неограниченными правами. Сама по себе роль бессмыслена, должна быть в связке с ролью
admin
. - admin - роль, позволяющая создавать и редактировать новые сущности.
- datalens - роль для просмотра информации. Редактирование или изменение запрещено;
- oidc - роль обозначает, что пользователь попал через внешнюю систему авторизации.
Для связи пользователей и ролей используется таблица pd_userinroles
. Данная таблица позволяет привязать одного пользователя к нескольким ролям (например, пользователь может быть и "мастером", и "администратором").
Все базовые роли помещены признаком b_base=true
. Все новые или производные роли должны быть частью этих ролей за счёт таблицы core.pd_userinroles
.
pd_accesses - Права доступа
Предназначена для хранения прав. Принwип работы заключается в том, что по умолчанию всё запрещено. И чтобы появились "разрешения" нужно создать их. По умолчанию в системе они уже заведены в виде записей, где заполена информация в колонках:
- f_role (f_user) - идентификатор роли из pd_roles (pd_users)
- c_name - наименование сущности или объекта (по умолчанию требуемые рахзрешения уже заполнены).
- c_function - наименование "динамических" функций в
datalens-auth
; - dl_id: bigint - служебный идентификатор для JOIN'а с основными таблицами.
Расшифровка прав
Права в колонке c_function расшифровываются, как:
- DL - это пространство имён функций предназначенных для
datalens
. - вторым элементом идёт идентификатор сушности. Он отображается в адресной строке
- третий - действие, которое может применятся к сущности:
- "символ звёздочка (снежинка)" - полные права
- Select или Query - права на чтение
- Add - права на создание
- Update - права на редактирование
- Delete - права на удалениеы
- Александр Краснов - https://github.com/akrasnov87
- Кирилл Автономов - https://github.com/kirillva
DataLens requires Docker to be installed. Follow these instructions depending on the platform you use:
Use the following command to start DataLens containers:
git clone https://github.com/datalens-tech/datalens && cd datalens
HC=1 docker compose up
# or with an external metadata database
METADATA_POSTGRES_DSN_LIST="postgres://{user}:{password}@{host}:{port}/{database}" HC=1 docker compose up
This command will launch all containers required to run DataLens and UI will be available on http://localhost:8080
If you want to use a different port (e.g. 8081
), you can set it using the UI_PORT
env variable:
UI_PORT=8081 docker compose up
Для подключения компонета авторизации (datalens-auth) требуется передать параметр NODE_RPC_URL
NODE_RPC_URL=http://localhost:7000/demo/rpc docker compose up
Notice on Highcharts usage
Highcharts is a proprietary commercial product. If you enable highcharts in your DataLens instance (with `HC=1`` variable), you should comply with Highcharts license (https://github.com/highcharts/highcharts/blob/master/license.txt).
When Highcharts is disabled in DataLens, we use D3.js instead. However, currently only few visualization types are compatible with D3.js. We are actively working on adding D3 support to additional visualizations and are going to completely replace Highcharts with D3 in DataLens.
Just pull the new docker-compose.yml
and restart.
docker compose down
git pull
docker compose up
All your user settings will be stored in the metadata
folder.
DataLens consists of the three main parts:
- UI is a SPA application with corresponding Node.js part. It provides user interface, proxies requests from users to backend services and also applies some light data postprocessing for charts.
- Backend is a set of Python applications and libraries. It is responsible for connecting to data sources, generating queries for them and post-processing the data (including formula calculations). The result of this work is an abstract dataset that can be used in UI for charts data request.
- UnitedStorage (US) is a Node.js service that uses PostgreSQL to store metadata and configuration of all DataLens objects.
We are releasing DataLens with first minimal set of available connectors (clickhouse, clickhouse over ytsaurus and postgresql) as well as other core functionality such as data processing engine and user interface. However, to kick off this project in a reasonable timeframe we have chosen to drop some of the features out of the first release: this version does not contain middleware and components for user sessions, object ACLs and multitenancy (although code contains entry-points for such extensions). We are planning to add missing features based on our understanding of community priorities and your feedback.
Below is a list of cloud providers offering DataLens as a service:
- Yandex Cloud platform
- DoubleCloud platform
DataLens supports authentication via Zitadel identity platform.
Use the following command to initialize Zitadel (you need to do this only once):
bash init.sh
Notice the updated .env
file after initialization: it contains Zitadel access keys. Keep that file safe and do not share it's contents.
After initialization you can start DataLens containers using special version of docker compose file:
HC=1 docker compose -f docker-compose.zitadel.yml up
After that you can login to DataLens on http://localhost:8080 using the default user credentials:
Username | Password |
---|---|
[email protected] |
Password1! |
You can use the same credentials to configure Zitadel and add new users using Zitadel control panel at http://localhost:8085/. Don't forget to login there at least once to change the default password.
By default in DataLens with authentication enabled, all users have a datalens.viewer role. This allows them to use all collections and workbooks in read-only mode. They are not allowed to create or modify any objects with this role. To be able to create or edit objects, they need to have a datalens.editor or datalens.admin role. To grant these roles, open Zitadel at http://localhost:8085/ui/console/grants, then find the user to whom you want to grant a new role and click on the user and select the new role.
DataLens supports the following roles:
datalens.viewer
: allows viewing all collections and workbooks, but does not allow creating or editing any object.datalens.editor
: includes thedatalens.viewer
role and allows creating, editing and deleting any object.datalens.admin
: currently equal todatalens.editor
. In the future releases, users with this role will be able to manage system-wide settings and perform administrative functions.
We use the metadata
folder to store PostgreSQL data. If you want to start over, you can delete this folder: it will be recreated with demo objects on the next start of the datalens-us
container.
I use the METADATA_POSTGRES_DSN_LIST
param for external metadata database and the app doesn't start. What could be the reason?
We use some PostgresSQL extensions for the metadata database and the application checks them at startup and tries to install them if they haven't been already installed. Check your database user's rights for installing extensions by trying to install them manually:
CREATE EXTENSION IF NOT EXISTS pg_trgm;
CREATE EXTENSION IF NOT EXISTS btree_gin;
CREATE EXTENSION IF NOT EXISTS btree_gist;
CREATE EXTENSION IF NOT EXISTS "uuid-ossp";
CREATE EXTENSION IF NOT EXISTS "pgcrypto";
If this attempt is unsuccessful, try to install dependencies by database admin and add param METADATA_SKIP_INSTALL_DB_EXTENSIONS=1
on startup, this parameter allows the app to skip installing extensions.
If you're using managed database, it's also possible that extensions for your database cluster are controlled by external system and could be changed only using it's UI or API. In such case, consult with documentation for managed database service which you're using. Don't forget to add METADATA_SKIP_INSTALL_DB_EXTENSIONS=1
after installing extensions this way.
My PostgresSQL cluster has multiple hosts, how can I specify them in METADATA_POSTGRES_DSN_LIST
param?
You can write all cluster hosts separated by commas:
METADATA_POSTGRES_DSN_LIST="postgres://{user}:{password}@{host_1}:{port}/{database},postgres://{user}:{password}@{host_2}:{port}/{database},postgres://{user}:{password}@{host_3}:{port}/{database}" ...
You can add additional certificates to the database in ./certs/root.crt
, they will be used to connect to the database from the datalens-us
container.
If datalens-us
container does not start even though you provided correct certificates, try to change METADATA_POSTGRES_DSN_LIST
like this:
METADATA_POSTGRES_DSN_LIST="postgres://{user}:{password}@{host}:{port}/{database}?sslmode=verify-full&sslrootcert=/certs/root.crt"
docker-compose-dev.yml
is a special compose file that is needed only for development purposes. When you run DataLens in production mode, you always need to use docker-compose.yml
. The docker-compose up
command uses it by default.
Просто закомментируйте NODE_RPC_URL
в docker-compose*.yml
Лучше создать в корне проекта файл .env и записать туда:
HC="1" NODE_RPC_URL="http://localhost:7000/demo/rpc"
Для запуска выполнить docker compose --env-file ./.env up
- APP_ENV: string - тип приложения, пространства. Добавляется к наименованию контейнеров.
- METADATA_POSTGRES_DSN_LIST: string - подключение к БД PostgreSQL. По умолчанию
postgres://us:us@pg-us:5432/us-db-ci_purgeable
- METADATA_SKIP_INSTALL_DB_EXTENSIONS: integer - признак для пропуска установки расширений. По умолчанию
0
При подключении компонета авторизации datalens-auth устанавливается расширение pgcrypto
.
- USE_DEMO_DATA: integer - признак загрузки демонстрационных данных. По умолчанию
1
- PROJECT_ID: string - наименование проекта для public.workbooks и public.collections. По умолчанию
datalens-demo
- HC: integer - признак подключения чартов Highcharts
- NODE_RPC_URL: string - строка подключения компонета авторизации datalens-auth. По умолчанию
http://us-auth/demo/rpc
- AUTH_ENV: string - пространство имён для компонета авторизации datalens-auth. По умолчанию
demo
- UI_PORT: integer - порт, на котором поднимится Datalens. По умолчанию 8080
Для указание настроек OIDC авторизации, требуется передать:
- OIDC: boolean - признак подключения OIDC-провайдера авторизации
- OIDC_ISSUER: string - адрес страницы для получения параметров OIDC авторизации
- OIDC_BASE_URL: string - обработчик авторизации (локальный, например ~/auth/v1/oidc)
- OIDC_CLIENT_ID: string - идентификатор клиента
- OIDC_SECRET: string - секретный ключ
- OIDC_NAME: string - наименование провайдера на клиенте
Пример:
OIDC=true OIDC_ISSUER=https://accounts.google.com/.well-known/openid-configuration OIDC_BASE_URL=https://1b39-94-232-56-134.ngrok-free.app/auth/v1/oidc OIDC_CLIENT_ID=528815932068-dibsaju2o48pri31.apps.googleusercontent.com OIDC_SECRET=GOCSPX-xQMuLZue5aWGw4JwFVl OIDC_NAME="GOOGLE"
Компонет datalens-ui
может принимать несколько OIDC провадеров (до 4). Чтобы передать их просто требуется указывать номер, например
OIDC_2=true OIDC_ISSUER_2=https://accounts.google.com/.well-known/openid-configuration OIDC_BASE_URL_2=https://1b39-94-232-56-134.ngrok-free.app/auth/v1/oidc OIDC_CLIENT_ID_2=528815932068-dibsaju2o48pri31.apps.googleusercontent.com OIDC_SECRET_2=GOCSPX-xQMuLZue5aWGw4JwFVl OIDC_NAME_2="GOOGLE"
Лучше вначале запусить создание БД с выключенным параметром NODE_RPC_URL
для контейнера datalens-us
, а уже затем только включить этот аргумент. В таком случаи не должно быть ошибок связанных с "версией дадасета" (код ошибок 500).
git remote add upstream https://github.com/datalens-tech/datalens.git git pull upstream main
- запустить первичный проект
- сделать копию us-db-ci_purgeable
- через pg_admin сделать резервное копирование данных (только данных) - в настройках использовать INSERT
- применить инструкцию в проекте (нужно исправить ошибку с функцией naturalsort)
В корне проекта есть специальный compose
файл:
docker compose -p datalens_demo -f docker-compose-demo.yml --env-file ./.env.demo up -d
Просмотр логов:
docker compose -p datalens_demo -f docker-compose-demo.yml --env-file ./.env.demo logs -n 100
docker save -o containers/datalens-control-api.tar akrasnov87/datalens-control-api:0.2102.2 docker save -o containers/datalens-data-api.tar ghcr.io/datalens-tech/datalens-data-api:0.2102.2 docker save -o containers/datalens-us.tar akrasnov87/datalens-us:0.214.0 docker save -o containers/datalens-ui.tar akrasnov87/datalens-ui:0.1794.0 docker save -o containers/datalens-auth.tar akrasnov87/datalens-auth:0.1.5
-
datalens-auth - 256 MB RAM
-
datalens-ui - 512 MB RAM
-
datalens-data-api - 1 GB RAM
-
datalens-control-api - 512 MB RAM
-
datalens-us - 512 MB RAM
-
datalens-pg-compeng - 1 GB RAM
-
datalens-pg-us - 512 MB RAM
Summary:
-
RAM - 4 GB
-
CPU - 2 CORES
This is minimal basic system requirements for OpenSource DataLens installation. Аctual consumption of VM resources depends on the complexity of requests to connections, connections types, the number of users and processing speed at the source level