博客
关于我
算法——90、子集2
阅读量:635 次
发布时间:2019-03-14

本文共 1722 字,大约阅读时间需要 5 分钟。

做题思路:	看到这道题之后,第一个想法是先通过一个指针遍历一遍,两个指针再遍历一遍,但是想到 3 个指针再次遍历一遍的时候,就果断放弃了这个想法,因为这样提交上去肯定超时了,于是便想,有什么方法可以得到数据的不定长拼接呢?结合之前做过的求字符串子串的经验,想到了递归,然后编写了一个递归算法,又结合题中的解集不能包含相同的元素,如何才能不包含相同的元素呢?当两个在相同输出位置上的数相同的时候跳过后面的相同元素就可以了,但是如果这个序列是散乱的,那么找到相同元素的开销就相当高了,所以可以选择加上一个排序算法,但是如果加上一个排序算法,那么时间就会相对消耗的较长了,又结合他给的数据是排好序的,所以抱着侥幸心理不用排序提交了一次,结果显示出错,只好添加上排序算法再次提交,通过。
class Solution {   public:    void getP(vector
nums, vector
> & tar, int i, vector
temp) { /* 这里传参 temp i 的时候采用的传值传参,利用了传值的回溯性(生命周期) */ if(i == nums.size()) // 这一步在递归入口已经判断过了,其实没必要加,只是小编习惯性加上了而已 { return ; } temp.push_back(nums[i]); tar.push_back(temp); for(++i; i < nums.size(); ++i) { getP(nums, tar, i, temp); /* 当递归出来的时候,在这个位置便不能出现上一次出现的数值了,所以要加判断 */ while(i + 1 < nums.size() && nums[i] == nums[i + 1]) { ++i; } } } vector
> subsetsWithDup(vector
& nums) { vector
> tar; vector
temp; tar.push_back(temp); // 因为幂集包含空集,所以在开始递归之前将其加入 tar 中 int i; /* 对给定的 nums 排序 */ for(i = 0; i < nums.size() - 1; ++i) { for(int j = i + 1; j < nums.size(); ++j) { if(nums[i] > nums[j]) { swap(nums[i], nums[j]); } } } i = 0; // 这步初始化很关键,可能由于习惯问题,在这上面栽了很多跟头 for(; i < nums.size(); ++i) { getP(nums, tar, i, temp); /* 当递归出来的时候,在这个位置便不能出现上一次出现的数值了,所以也要加判断 */ while(i + 1 < nums.size() && nums[i] == nums[i + 1]) { ++i; } } return tar; }};
这份代码是小编第一次提交成功的代码,还有许多地方可以优化,如果大家有兴趣的话可以试着自己优化一下,权当闲暇时间的消遣了。
最终优化结果:

在这里插入图片描述

转载地址:http://hueoz.baihongyu.com/

你可能感兴趣的文章
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_插入时如果目标表中已存在该数据则自动改为更新数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0058
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0_Postgresql和Mysql同时指定库_指定多表_全量同步到Mysql数据库以及Hbase数据库中---大数据之Nifi工作笔记0060
查看>>
NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0最新版本安装_配置使用HTTP登录_默认是用HTTPS登录的_Https登录需要输入用户名密码_HTTP不需要---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增加修改实时同步_使用JsonPath及自定义Python脚本_03---大数据之Nifi工作笔记0055
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_插入修改删除增量数据实时同步_通过分页解决变更记录过大问题_01----大数据之Nifi工作笔记0053
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
查看>>
NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现update数据实时同步_实际操作05---大数据之Nifi工作笔记0044
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_生成插入Sql语句_实际操作02---大数据之Nifi工作笔记0041
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_03_来吧用NIFI实现_数据分页获取功能---大数据之Nifi工作笔记0038
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_不带分页处理_01_QueryDatabaseTable获取数据_原0036---大数据之Nifi工作笔记0064
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_无分页功能_02_转换数据_分割数据_提取JSON数据_替换拼接SQL_添加分页---大数据之Nifi工作笔记0037
查看>>