Project Name | Stars | Downloads | Repos Using This | Packages Using This | Most Recent Commit | Total Releases | Latest Release | Open Issues | License | Language |
---|---|---|---|---|---|---|---|---|---|---|
Tidb | 34,149 | 68 | 101 | 8 hours ago | 1,289 | April 07, 2022 | 4,014 | apache-2.0 | Go | |
TiDB is an open-source, cloud-native, distributed, MySQL-Compatible database for elastic scale and real-time analytics. Try AI-powered Chat2Query free at : https://tidbcloud.com/free-trial | ||||||||||
Metabase | 32,610 | 15 hours ago | 1 | June 08, 2022 | 3,028 | other | Clojure | |||
The simplest, fastest way to get business intelligence and analytics to everyone in your company :yum: | ||||||||||
Dbeaver | 32,255 | 10 hours ago | 1,746 | apache-2.0 | Java | |||||
Free universal database tool and SQL client | ||||||||||
Redash | 23,239 | a day ago | 2 | May 05, 2020 | 791 | bsd-2-clause | Python | |||
Make Your Company Data Driven. Connect to any data source, easily visualize, dashboard and share your data. | ||||||||||
Directus | 21,761 | 50 | 7 hours ago | 55 | September 22, 2022 | 229 | other | TypeScript | ||
The Modern Data Stack 🐰 — Directus is an instant REST+GraphQL API and intuitive no-code data collaboration app for any SQL database. | ||||||||||
Shardingsphere | 18,454 | 8 | 8 hours ago | 7 | June 04, 2020 | 666 | apache-2.0 | Java | ||
Ecosystem to transform any database into a distributed database system, and enhance it with sharding, elastic scaling, encryption features & more | ||||||||||
Knex | 17,614 | 18,096 | 2,788 | 3 days ago | 248 | August 31, 2022 | 830 | mit | JavaScript | |
A query builder for PostgreSQL, MySQL, CockroachDB, SQL Server, SQLite3 and Oracle, designed to be flexible, portable, and fun to use. | ||||||||||
Cube | 15,644 | 18 hours ago | 758 | other | Rust | |||||
📊 Cube — The Semantic Layer for Building Data Applications | ||||||||||
Dolt | 14,919 | 2 | 14 hours ago | 214 | May 19, 2022 | 293 | apache-2.0 | Go | ||
Dolt – Git for Data | ||||||||||
Mysql | 13,331 | 4,892 | 7,815 | a day ago | 49 | March 25, 2022 | 66 | mpl-2.0 | Go | |
Go MySQL Driver is a MySQL driver for Go's (golang) database/sql package |
国内文章备用地址(因为github上面 图片效果可能看不到,原因你懂的 哈哈)
https://xie.infoq.cn/article/1af0cb75be056fea788e6c86b
github地址 zhp8341/flink-streaming-platform-web
国内gitee 地址 https://gitee.com/zhuhuipei/flink-streaming-platform-web
flink-streaming-platform-web系统是基于Apache Flink 封装的一个可视化的、轻量级的flink web客户端系统,用户只需在web 界面进行sql配置就能完成流计算任务。
主要功能:包含任务配置、启/停任务、告警、日志等功能,支持sql语法提示,格式化、sql语句校验。
目的:减少开发、降低成本 完全实现sql化 流计算任务。 😂
该项目获得 Flink Forward Asia Hackathon (2021) 季军
如需技术支持详见
目前flink版本已经升级到1.14.3
如果您觉得还不错请在右上角点一下star 谢谢 🙏 大家的支持是开源最大动力
2、 源码讲解文档
如需技术支持详见
1、 Flink 和 flink-streaming-platform-web 安装部署
2、 在IDEA中执行运行调试
4、flink-streaming-platform-web 体验(基于docker)适合体验者
5、关于k8s理论上是可行的,需要结合flink版本(或者hadoop版本)定制镜像
如需技术支持详见
3、demo3 kafka和mysql维表实时关联写入mysql 参考
请使用下面的sql进行环境测试 用于新用户跑一个hello word 对平台有个感知的认识
CREATE TABLE source_table (
f0 INT,
f1 INT,
f2 STRING
) WITH (
'connector' = 'datagen',
'rows-per-second'='5'
);
CREATE TABLE print_table (
f0 INT,
f1 INT,
f2 STRING
) WITH (
'connector' = 'print'
);
insert into print_table select f0,f1,f2 from source_table;
官方相关连接器下载
请移步 https://nightlies.apache.org/flink/flink-docs-release-1.14/zh/docs/connectors/table/overview/
支持的sql语法 |
---|
INSERT INTO |
INSERT OVERWRITE |
CREATE TABLE |
CREATE FUNCTION |
CREATE VIEW |
USE CATALOG |
DROP |
ALTER |
SHOW CATALOGS |
SHOW DATABASES |
SHOW TABLES |
SHOW FUNCTIONS |
CREATE CATALOG |
SET |
SELECT (不支持) |
1、由于hadoop集群环境不一样可能导致部署出现困难,整个搭建比较耗时.
2、由于es 、hbase等版本不一样可能需要下载源码重新选择对应版本 源码地址 zhp8341/flink-streaming-platform-web
交流和解答
钉钉 http://img.ccblog.cn/flink/dd2.png
微信二维码 http://img.ccblog.cn/flink/wx2.png
完全按照1.14.3的连接器相关的配置详见
https://nightlies.apache.org/flink/flink-docs-release-1.13/zh/docs/connectors/table/kafka/
如果需要使用到连接器请去官方下载 如:kafka 连接器 https://nightlies.apache.org/flink/flink-docs-release-1.13/zh/docs/connectors/table/kafka/
第一种下载连接器后直接放到 flink/lib/目录下就可以使用了
1、该方案存在jar冲突可能,特别是连接器多了以后
2、在非yarn模式下每次新增jar需要重启flink集群服务器
第二种放到http的服务下填写到三方地址
公司内部建议放到内网的某个http服务
http://ccblog.cn/jars/flink-connector-jdbc_2.11-1.12.0.jar
http://ccblog.cn/jars/flink-sql-connector-kafka_2.11-1.12.0.jar
http://ccblog.cn/jars/flink-streaming-udf.jar
http://ccblog.cn/jars/mysql-connector-java-5.1.25.jar
如果使用jar管理功能 可直接填写jar包名字
flink-connector-jdbc_2.11-1.12.0.jar
flink-streaming-udf.jar
mysql-connector-java-5.1.25.jar
多个url使用换行
自定义连接器打包的时候需要打成shade 并且解决jar的冲突
个人建议使用第二种方式,每个任务之间jar独立,如果把所有连接器放到lib 可能会和其他任务的jar冲突 公用的可以放到flink/lib目录里面 如:mysql驱动 kafka连接器等
1、 可能遇到的问题和解决方案
1、批量任务将加入调度系统
请加钉钉群: 34315096
钉钉 钉钉二维码
http://img.ccblog.cn/flink/dd2.png
2021-03-18 和 2021-03-19 两天 做的调研
感谢文香炯(湖南草花互动科技股份公司)贡献前端代码 :https://gitee.com/wenxiangjiong/flink-streaming-platform-web.git