博客
关于我
对SQL数据表和数据库进行迭代操作
阅读量:428 次
发布时间:2019-03-06

本文共 1420 字,大约阅读时间需要 4 分钟。

 
本文介绍了master数据库中两个非常有用但在SQL Server在线教科书中没有提到的存储过程。
  这些
过程对于处理以下任务非常方便,如判断使用的存储空间大小、行数、用户表索引
  等等。第一个过程sp_MSForEachDB对于感兴趣的服务器上的每个数据库执行三条命令。
  @command1:第一个执行的命令
  @replacechar:用另一个占位赋替换“?”
  @command2:第二个执行的命令
  @command3:第三个执行的命令
  @precommand:进入循环前执行的命令
  @postcommand:循环结束后执行的命令
  每个命令集(即使该集合只含有一条命令)作为一个批处理对每个数据库执行,
  所以当我们要将捕获的结果输出到文本而不是标准结果集表时,这将非常有用。
  为了实现这一要求,选择菜单中的查询按钮|输出结果|输出到文本或者按快捷键[Ctrl]T。
  下面的代码返回服务器上每个数据库中用户数据表的数目:
exec sp_MSForEachDB@command1 = "use ? exec sp_SpaceUsed"
  The abbreviated output looks like this:简短输出可能如下:
  数据库名数据库大小未分配空间大小
  --------------------- ------------------
  master 5.25 MB1.26 MB
  reserved data index_size unused
  ------------------ ------------------
  2808 KB 1144 KB 1080 KB 584 KB
  第二个过程sp_MSForEachTable接受7个参数:
  @command1:第一个执行的命令
  @replacechar:用另一个占位符替换“?”
  @command2:第二个执行的命令
  @command3:第三个执行的命令
  @whereand:Where条件语句 (或 Order By 语句)
  @precommand:进入循环前执行的命令
  @postcommand:循环结束后执行的命令
  通过对要传递的参数命名,可以跳过传递空值的要求。当要执行的命令中含有一个问号时,参数@replacechar十分有用。@whereand参数的实现可以根据过滤器缩小输出的范围。
  你还可以加入一个ORDER BY语句。下面的例子返回AdventureWorks数据库中每个数据表的行数,并按照数据表明对它们排序:
exec sp_MSForEachTable@command1 = "Print '?'",
@command2 = "select count(*) from ?", @whereand = "ORDER BY 1"
  下面是输出结果:
[HumanResources].[Department]-----------
16[HumanResources].[Employee]-----------290[HumanResources].
[EmployeeAddress]-----------290[HumanResources].
[EmployeeDepartmentHistory]-----------296

转载地址:http://tbruz.baihongyu.com/

你可能感兴趣的文章
nginx配置一、二级域名、多域名对应(api接口、前端网站、后台管理网站)
查看>>
Nginx配置代理解决本地html进行ajax请求接口跨域问题
查看>>
nginx配置全解
查看>>
Nginx配置参数中文说明
查看>>
Nginx配置后台网关映射路径
查看>>
nginx配置域名和ip同时访问、开放多端口
查看>>
Nginx配置好ssl,但$_SERVER[‘HTTPS‘]取不到值
查看>>
Nginx配置如何一键生成
查看>>
Nginx配置实例-负载均衡实例:平均访问多台服务器
查看>>
Nginx配置文件nginx.conf中文详解(总结)
查看>>
Nginx配置负载均衡到后台网关集群
查看>>
ngrok | 内网穿透,支持 HTTPS、国内访问、静态域名
查看>>
NHibernate学习[1]
查看>>
NHibernate异常:No persister for的解决办法
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
查看>>
NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
查看>>